Sommaire : Trois questions à François Anceau | L'actualité de la semaine | Théories et concepts | Le livre de la semaine |
ABONNEMENT/DESABONNEMENT| PAGE D'ACCUEIL DE L'ASTI | NUMEROS PRECEDENTS.
Asti-Hebdo : Vous enseignez au Cnam les "techniques fondamentales de l'informatique" et la conception des VLSI à Polytechnique. Faut-il vous considérer plutôt comme un enseignant ou un chercheur ?
François Anceau : J'ai eu une carrière mixte, entre université et industrie. J'ai travaillé douze ans chez Bull. Je suis aujourd'hui arrivé à une phase où j'essaie de faire bénéficier les jeunes générations de mon expérience, tout en continuant à la mettre à jour.
Comme je l'ai dit pendant ma récente intervention à l'Institut Fredrik R. Bull, j'ai l'impression que, dans le domaine crucial des architectures de microprocesseurs, nous nous sommes fait distancer. Les Américains sont en train de prendre une avance telle que nous aurions bien du mal à les rejoindre, si jamais nous avions cette ambition. Nous c'est à dire les Français et les Européens en général. Or c'est un domaine clé, non seulement pour l'industrie et les services, mais aussi pour l'ensemble de la société, que ces technologies influencent d'une manière sourde, mais profonde.
Hebdo : Quel est aujourd'hui le problème essentiel de ces architectures. La montée des consommations ? Le parallélisme ?
F.A. . : La publicité faite par Intel sur la consommation du Pentium 4, qui atteint 55 watts, a de quoi faire réfléchir. En termes de watts par centimètre carré, au rythme de croissance que nous constatons, nous nous rapprochons du coeur des réacteurs nucléaires ! Mais je pense que différentes approches nous permettront de contourner cet obstacle. J'ai d'ailleurs tendance à penser que si les constructeurs en parlent maintenant (après des années de silence), c'est surtout pour nous préparer à l'arrivée d'une nouvelle génération de machines, à basse consommation.
Quant au parallélisme, je crois qu'il s'agit surtout d'un mythe, qui pousse vers les voies de garage en écartant de la voie centrale : les chips puissants mono-processeurs. Mais le mythe du parallélisme plaît beaucoup aux technocrates, qu'ils soient français ou européens, publics ou privés. Les Américains ne se privent pas de l'utiliser, en particulier pour motiver leurs thésards. Or l'essentiel, pour l'industrie, est de disposer de bons mono-processeurs.
Toute une panoplie de techniques se sont développées pour bien utiliser les monoprocesseurs et réduire les consommations d'énergie. Je pense en particulier au renommage de registres ou à l'exécution désynchronisée. Cela n'empêche pas, une fois que l'on dispose de bons processeurs, de les faire coopérer.
Hebdo : La France et l'Europe pourraient-elles retrouver une place dans ce domaine, au niveau international.
F.A. Ce n'est pas impossible. Les Anglais ont réussi par exemple à très bien se placer sur le marché des processeur enfouis avec leur machine ARM.
Pour réussir, il faudrait accepter, comme nous avons su le faire pour les avions après la guerre, de soutenir une succession de prototypes sous-optimaux, et non rentables par eux-mêmes. Il ne faut pas tenter de lutter d'emblée avec des industries qui ont l'expérience, le savoir-faire d'un domaine. L'acquisition de licences ne peut suffire. Seule l'expérience que l'on acquiert progressivement en développant successivement des prototypes permet de prendre conscience des vrais problèmes, des astuces qu'il faut trouver pour les résoudre.
Pour prétendre faire un tel effort, on ne peut se contenter de laisser la liberté aux chercheurs et de simplement soutenir leurs efforts par quelques aides technocratiques. Pour répondre à la pression du marché, il faut faire de la recherche "au forcing". Cela marche très bien, j'en ai eu l'expérience.
On aura un point de vue et quelques pointeurs sur le site de 01 Net.
"En revanche, pour un grand nombre d'entreprises mouvantes, généralement de plus petite taille, les solutions à base de XML sont plus adaptées. Ces entreprises interviennent dans la fourniture de produits et de services généraux,...
Toute l'expérience accumulée est récupérable !
- sur le plan sémantique, le vocabulaire est déjà défini et disponible ;
- sur le plan méthodologique, les méthodes de conception et d'analyse sont
les mêmes ;
- sur le plan du design des systèmes d'information, tous les processus
d'automatisation des traitements, de contrôle, d'alerte et de gestion des
Chercheur au Sony Computer Science Laboratory (fondé à Paris en février 1997), l'auteur y a fait la connaissance de Luc Steels et de son équipe. Pour lui, la langue est un système complexe, comparable par certains aspects à un organisme vivant. Et on peut l'étudier par des simulations informatiques basées sur des robots, notamment les "têtes parlantes", ainsi baptisées par le laboratoire en référence aux automates construits par l'abbé Mical en 1783. En faisant dialoguer de tels robots, on constate que, progressivement, ils construisent une nouvelle langue.
Les titres de chapitres du livre, avec tout ce qu'ils ont de blasphématoire pour les non-réductionnistes, en donnent bien l'orientation : dynamiques du consensus, auto-organisation lexicale, construction du sens, catégories complexes, ancrage dans la réalité.
Mais l'auteur n'a peut-être pas vu toute la portée de ce travail. Il y voit surtout "dans une perspective d'ingénieur", la possibilité d'importantes avancées dans l'interaction homme-machine et, à terme, pour le traitement des langues naturelles. Certes, mais il y a aussi une forte demande du marché pour la commmunication entre machines, le "StoS" (system to system). En ce domaine, l'état de l'art se fonde essentiellement sur XML. Mais, sous son apparente facilité, ce "langage" recouvre beaucoup de complexités. En partie parce qu'il se veut lisible aussi bien par l'homme que par les machines. Les idées présentées par Frédéric Kaplan laissent présager que les robots pourraient bientôt trouver leur avantage à se passer de nous pour mieux communiquer entre eux. P.B.